Компания Veeam Software на днях сделала доступным для загрузки и покупки обновленную версию своего пакета продуктов для резервного копирования, мониторинга и управления виртуальной средой Veeam Availability Suite v8. Это решение сочетает в себе два известных многим из вас продукта:
Veeam ONE v8 - комплекс продуктов для мониторинга виртуальной среды, а также отчетности, аналитики и решения проблем.
Напомним, что об анонсе Veeam Availability Suite v8 мы уже писали вот тут. Кроме того, здесь, здесь и здесь мы также немного рассказывали о новых возможностях Veeam Backup and Replication 8.
Начнем с новых возможностей Veeam Backup and Replication v8:
1. Veeam Explorer for Storage Snapshots – данная технология теперь доступна для массивов NetApp
Новый продукт Veeam Explorer for Storage Snapshots (с поддержкой дисковых массивов HP и NetApp) позволяет делать резервные копии из снапшотов хранилищ (Snapshot, SnapMirror и SnapVault) и быстро восстанавливать ВМ из этих копий. Работает это до 20 раз быстрее, чем традиционным способом.
2. Новые средства для восстановления объектов сервисов виртуальных машин
Теперь есть решения для восстановления объектов следующих приложений в гостевой ОС:
Veeam Explorer for SQL (впервые появился в v8) - появился также веб-портал самостоятельного восстановления объектов, кроме того, теперь есть поддержка SQL AlwaysOn Availability Groups.
Теперь можно восстанавливать любые объекты, атрибуты и контейнеры из Active Directory.
3. Поддержка EMC Data Domain Boost
Теперь появилась возможность интеграции с этим механизмом EMC, что сократит окна резервного копирования за счет ускорения создания синтетических полных бэкапов до 10 раз. Происходит это за счет дедупликации данных на стороне источника, а также других техник оптимизации.
Поддержка Fibre Channel позволяет выполнять резервное копирование на Data Domain без использования сети LAN.
4. Новая технология End-to-End Encryption
Теперь передаваемые данные при резервном копировании шифруются (AES 256), и даже если вы потеряете пароль, то все равно сможете восстановить виртуальные машин их резервных копий.
Возможны три типа шифрования:
At source (на стороне источника - делает backup proxy)
In flight (сетевой трафик репликации, quick migration и т.п.)
At rest (шифрование на пленку, либо за счет использования шифрования “at source”)
5. Многочисленные улучшения репликации
Сюда входит очень много улучшений, таких как уменьшение требований к каналу, механизм репликации из бэкапа (для очень удаленных и труднодоступных площадок) и возможность переключения на резервную площадку в один клик. Также появились Failover Plans (как в VMware SRM), упрощающие восстановление инфраструктуры.
6. Новое решение Veeam Cloud Connect - средство резервного копирования виртуальных машин в облако любого сервис-провайдера.
Об этом мы уже детально писали вот тут. Veeam Cloud Connect позволяет создать инфраструктуру резервных копий не только на своей площадке, но и на удаленном сайте сервис-провайдера, бизнес которого ориентирован на такую модель поддержки ваших бэкапов (а значит он будет более компетентен в их хранении).
7. Новая функция Backup I/O Control
Этот механизм мы также подробно рассматривали тут. Backup I/O Control позволяет ограничивать производительность процедуры резервного копирования на отдельном хранилище.
Backup I/O Control ограничивает процесс резервного копирования таким образом, чтобы соблюсти требования по производительности хранилищ для нормальной работы виртуальных машин и приложений. Это очень удобно для продуктивных систем, работающих в режиме 24x7.
8. Новый портал самообслуживания для владельцев приложений.
Это очень удобная штука для самостоятельного восстановления отдельных файлов и папок из резервных копий владельцами систем. Если такой пользователь логинится со своего ПК в этот портал, то система определяет, в каких машинах он является администратором, и предоставляет ему там возможность навигации по файловой системе и восстановления файлов и папок в продуктивную систему. Невероятно удобно, и не надо напрягать администратора по пустякам.
9. Более 150 улучшений - больших и маленьких.
Полный их список приведен вот тут. Veeam как всегда поражает масштабом нововведений в очередной мажорной версии своего продукта. Ребята действительно технологические лидеры. Например, любой другой вендор выделил бы фичу "обнаружение хост-серверов в параллельном режиме, что существенно ускоряет построение инвентаря виртуальной инфраструктуры" в отдельную строчку, но среди кучи новых более крутых новых возможностей Veeam Backup and Replication ей просто не нашлось места, и она затесалась среди этих "150+". Так что обязательно обо всем почитайте, если интересно узнать, например, что такое "Snapshot Hunter".
Теперь о новых возможностях Veeam ONE v8:
What-if анализ сразу для нескольких проектов
Теперь можно планировать развертывание сразу нескольких проектов в режиме "что если?" при расширении инфраструктуры и планировании возможных вариантов ее развития.
Автоматизированное моделирование ситуаций "что будет, если" помогает снизить риски при изменениях и обновлениях, предлагая оптимальный вариант резервирования ресурсов. Эта возможность позволит избавиться от необходимости проведения вычислений при планировании и поддержке развертываний.
Многопользовательский мониторинг и создание отчетов
Менеджеры ИТ могут делегировать системным администраторам функции мониторинга и создания отчетов для виртуальных машин, на которые
распространяются их полномочия. Администраторы будут выполнять мониторинг и настраивать создание отчетов для этих машин, а менеджеры могут создавать отчеты по резервному копированию для всего подразделения, используя данные по “своему” сегменту виртуальной инфраструктуры. Это позволит ежемесячно экономить несколько часов времени для всего подразделения.
Многопользовательский мониторинг и создание отчетов для сервис-провайдеров
Поставщики услуг хостинга виртуальных машин, которые предлагают сервис Infrastructure-as-a-Service (IaaS), могут использовать возможности многопользовательского мониторинга и создания отчетов, чтобы предложить заказчикам услугу самостоятельного мониторинга и создания отчетов. Это повысит уровень предлагаемых услуг, а также избавит поставщика от необходимости вручную создавать отчеты для каждого заказчика.
Возможность мониторинга Veeam Cloud Connect
Теперь можно наблюдать за ресурсами среды Veeam Cloud Connect, а именно:
Срабатывание алармов, которые оповещают сервис-провайдеров о возможных неполадках
Отчет по пользователям и использованию ими дисковых квот
Полностью настраиваемые возможности создания отчетов и документирования
Расширенные возможности создания отчетов версии 8 позволяют включать данные из любого поля и любого отчета в единый многофункциональный документ, что обеспечивает еще больший контроль и прозрачность
Остальные возможности Veeam ONE v8 подробно рассмотрены вот тут.
Скачать пробную версию Veeam Availability Suite v8 можно по этой ссылке.
Компания StarWind, поставщик ПО номер 1 для создания отказоустойчивых кластеров хранилищ в инфраструктурах VMware vSphere и Microsoft Hyper-V (о возможностях продукта - тут), спешит анонсировать свои ноябрьские вебинары.
Напомним, что в новой версии платформы Windows Server vNext от компании Microsoft появится механизм Storage Quality of Service (QoS) - возможность динамического отслеживания производительности хранилищ и горячая миграция виртуальных машин при превышении этими хранилищами пороговых значений (IOPS). Все это делается на базе заранее настроенных политик. По-сути, это аналог механизма Storage DRS от компании VMware в продукте vSphere.
В этом документе от Microsoft на 16 страницах объясняется работа механизма Storage QoS и как его использовать для мониторинга производительности хранилищ и выравнивания нагрузки (забавное понятие "Noisy neighbor mitigation").
Содержание документа:
Summary
Goals & Behaviors
Background
Scenario 1: Enabling Storage QoS and basic performance monitoring
Некоторое время назад мы писали о технологии VMware vFlash (она же Virtual Flash), которая позволяет использовать высокопроизводительные накопители SSD (вот тут - о производительности) для решения двух важных задач:
Предоставление виртуальным машинам дополнительного места, в которое будут свопиться страницы памяти в случае недостатка ресурсов на хосте (это намного более производительно, чем свопить на обычный HDD-диск). Эта техника называется Virtual Flash Host Swap и пришла на смену механизму Swap to SSD.
Прозрачное встраивание в поток ввода-вывода на хосте между виртуальными машинами и хранилищами, что позволяет существенно ускорить операции чтения данных виртуальных дисков. Называется это VMware Flash Read Cache (vFRC).
Ниже мы вкратце расскажем о настройке этих двух механизмов через VMware vSphere Web Client (в обычном C#-клиенте этого, к сожалению, нет). Если что, более подробно о технике vFRC можно почитать по этой ссылке.
Итак, в vSphere Web Client переходим на вкладку "Manage" для нужного хоста, далее в разделе "Settings" выбираем пункт "Virtual Flash Resource Management". Это кэш, который мы добавляем для того, чтобы в случае нехватки места, его могли использовать виртуальные машины, чтобы не свопить данные на медленный магнитный диск, кроме того он же будет использоваться для целей vFRC.
Нажимаем Add Capacity:
Выбираем диски, которые мы будем использовать как Host Swap и нажимаем "Ок" (все данные на них будут стерты):
Всего под нужды Virtual Flash может быть выделено до 8 дисков суммарной емкостью до 32 ТБ. Видим, что ресурс добавлен как Virtual Flash Resource (его емкость отдельно учитывается для vFRC и Host Cache):
Настройка Virtual Flash Host Swap
Первым делом рекомендуется настроить именно этот кэш, а остаток уже распределять по виртуальным машинам для vFRC.
Выбираем пункт "Virtual Flash Host Swap Cache Configuration" в левом меню, а далее в правой части мы нажимаем кнопку "Edit":
Указываем необходимый объем, который планируется использовать, и нажимаем "Ок":
После того, как мы настроили нужное значение - в случае недостатка ресурсов на хосте виртуальные машины будут использовать высокоскоростные диски SDD для своих нужд внутри гостевой ОС (файлы подкачки прочее).
Настройка VMware Flash Read Cache (vFRC)
Напомним, что это кэш только на чтение данных, операции записи будут производиться на диск, минуя флэш-накопители. Соответственно, такой кэш улучшает производительность только операций чтения.
Сам кэш vFRC можно настроить на уровне отдельных виртуальных машин на хосте VMware ESXi, а также на уровне отдельных виртуальных дисков VMDK.
Чтобы выставить использование нужного объема vFRC для отдельной виртуальной машины, нужно выбрать пункт "Edit Settings" из контекстного меню ВМ и на вкладке "Virtual Hardware" в разделе "Virtual Flash Read Cache" установить нужное значение для соответствующего виртуального диска:
Если этого пункта у вас нет, то значит у вас версия виртуального "железа" (Virtual Machine Hardware) ниже, чем 10, и ее нужно обновить.
По ссылке "Advanced" можно настроить размер блока для кэша (значение Reservation, установленное тут, обновит значение на предыдущем скрине):
Многие из вас знают решение номер один для создания программных отказоустойчивых кластеров хранилищ StarWind Vurtial SAN и успешно его применяют в производственной среде своего предприятия.
Продукт StarWind Virtual SAN уже многие годы на рынке, работает как часы и спасает данные многих тысяч пользователей - поэтому он заслуживает, чтобы его оценили по достоинству.
Напомним основные возможности StarWind Virtual:
Высокая доступность с синхронным зеркалированием: 3-узловой кластер высокой доступности
Автоматическое преодоление отказа
Восстановление с быстрой синхронизацией
Непрерывная защита данных и мгновенные снимки
Асинхронная репликация по WAN (ускоренная): конфигурация N+1
Ниже приведем ссылки на статьи VMware Knowledge Base (взято отсюда), где можно узнать о расположении и назначении файлов журнала (логов) для различных продуктов, включая компоненты решения VMware vSphere.
На проходящей сейчас в Барселоне конференции VMware VMworld Europe 2014 компания VMware сделала немало интересных анонсов. Один из них - анонс VMware vRealize Operation Management Suite 6.0 (vROPS), который объединяет в себе несколько продуктов, которые теперь будут известны под новыми именами.
Напомним, что о vRealize Suite мы уже писали вот тут, когда проходил VMworld 2014 в штатах. Суть ренейминга продуктов заключается в следующем:
А точнее:
vRealize Suite - это комплект продуктов vCAC + vCenter Operations Suite + Log Insight + ITBM
vRealize Operations (он же бывший vCenter Oerations Suite)
vRealize Operations Manager (он же vCenter Operations)
vRealize Operartions Insight (аддон VSOM, продукт vRealize Operations + Log Insight).
По-сути, комплект продуктов vRealize Suite 6.0 представляет собой платформу для управления гибридным облаком на решениях VMware (а именно, частная инфраструктура VMware vSphere + публичное облако VMware vCloud Air).
С помощью vRealize предполагается управлять не только гибридным облаком от VMware, но также и другими лидирующими на рынке публичными облаками (например, виртуальными машинами в облаке Amazon EC2).
Кроме того, с помощью компонентов vRealize предполагается также управлять и физическими системами:
Новые возможности и улучшения комплекта vROPS 6.0:
Улучшены возможности развертывания отдельной установки на площадке.
Поддержка работы компонентов в режиме кластера - общие данные и интерфейс пользователя.
Режим Resiliency (так называемый RAID из приложений).
Умные алерты (smart alerts) с возможностью получить детальную информацию о проблемах, которые могут произойти.
Кастомизабельные дэшборды и отчеты (можно править их посредством drug and drop).
Улучшения модели расчета необходимых дисковых емкостей для растущей инфраструктуры, с возможностями по сохранению данных расчетов и выполнения моделирования по схеме "что-если?".
Публичный API, доступный партнерам VMware.
Возможность интеграции management packs, которые доступны на VMware Solution Exchange (всего около 40-50 штук для разных приложений).
Решения vROPS развертываются в виде виртуальных модулей, между которыми создается кластер. Узлы в нем называются слайсами (slices):
Есть специальная консоль, где можно наблюдать за жизнедеятельностью узлов:
При первом развертывании решений пакета вам предлагается ответить на несколько вопросов мастера, который развернет компоненты решения в зависимости от вашего выбора:
На дэшбордах можно увидеть основные проблемы жизнедеятельности датацентра, потенциальные риски и какие-то метрики эффективности:
При клике на алерт вам предлагают вариант решения:
Также можно использовать заранее подготовленные сценарии для устранения проблем определенного типа.
Если проблему сходу не решить, то можно использовать решение VMware Log Insight для проведения более глубокого анализа (то есть, "ковыряния в логах"):
Если проблема повторится, то вы уже будете видеть ее описание и решите ее мгновенно.
Каждое представление может быть преобразовано в отчет:
Можно также создавать кастомные отчеты:
VMware vRealize Suite 6.0 доступен в двух изданиях:
Advanced ($5750 за CPU сервера)
Enterprise ($9950 за CPU)
VMware vRealize Operations Insight также лицензируется отдельно по процессорам (цена начинается от $2000 за CPU). Все указанные цены - американские, у нас будет значительно дороже.
Доступность и стоимость VMware vRealize Air Automation пока еще не раскрывается, но на бета-тест можно подписаться вот тут: http://vrealizeair.vmware.com.
Оказывается, пару месяцев назад, еще до проходящего сейчас в Барселоне VMworld Europe 2014, компания VMware сделала анонс VMware Site Recovery Manager 5.8 - средства создания катастрофоустойчивой архитектуры виртуального датацентра. Но на днях была обновлена vSphere Replication до версии 5.6, где появилась возможность проводить безопасную репликацию виртуальных машин в облако VMware vCloud Air, поэтому новость про SRM 5.8 сейчас будет очень кстати.
Напомним, что прошлую мажорную версию VMware SRM 5.5 компания VMware выпустила больше года назад.
Новые возможности VMware SRM 5.8:
Наконец-то SRM полностью поддерживает vSphere Web Client (ранее он был доступен только для "толстого" клиента).
Интерфейс полнофункциональный. Вот, например, автоматическое создание реверсного мапинга на резервной площадке:
Максимальное число защищаемых ВМ увеличилось до 5000.
Максимальное число одновременно исполняемых задач увеличилось до 2000.
Улучшилась производительность задач - теперь они выполняются до 75% быстрее.
Теперь в рамках создания плана аварийного восстановления можно мапить не только отдельные IP-адреса машин (что неудобно при массовом мапинге), но и целые подсети (IP customisation plans).
Новая версия vSphere Replication обеспечивает возможность проводить безопасную репликацию виртуальных машин в облако VMware vCloud Air.
vSphere replication calculator - возможность посчитать, какой канал вам потребуется для репликации нужного числа виртуальных машин.
Enhanced reporting – в новой версии vSphere Replication появилось новое представление reporting dashboard, которое представляет детальную информацию об использовании vSphere Replication.
Появился новый плагин VMware Orchestrator Plugin for SRM для автоматизации операций SRM (это необходимо для нестандартных и комплексных сценариев).
SRM теперь может использовать встроенную базу данных vPostgres для быстрого развертывания.
Полная поддержка VSAN и vSphere Storage Appliance (VSA).
Интегрированная Windows-аутентификация при использовании БД Microsoft SQL Server (подробнее тут).
Поддержка интеграции с vCloud Automation Center (vCAC - сейчас этот продукт называется vRealize Automation) - появились средства самообслуживания пользователей.
Скачать VMware Site Recovery Manager 5.8 можно по этой ссылке. Документация доступна тут, а вот тут - презентация о новых фичах с VMworld.
Таги: VMware, SRM, Update, HA, vSphere, vCenter, Web Client
Интересно, что эта версия vCloud Director была разработана эксклюзивно для партнеров VMware по программе VMware vCloud Air Network (которая пришла на смену программе VSPP).
Итак, основные новые возможности VMware vCloud Director 5.6:
VM Disk Level Storage Profiles - эта возможность позволяет виртуальным машинам на уровне отдельных VMDK-дисков располагаться на разных хранилищах (ярусах - tiers), таких как SAN, NAS, локальные хранилища или кластеры Virtual SAN.
VMware NSX Support - теперь полностью поддерживается данное решение для виртуализации сетевого окружения датацентра, о котором мы писали вот тут.
VM Monitoring Service - возможность мониторинга исторических данных о производительности виртуальных машин на уровне отдельного клиента (tenant) IaaS-инфраструктуры. Теперь клиенты датацентров могут самостоятельно наблюдать за производительностью своей арендуемой виртуальной инфраструктуры и решать возникающие проблемы.
Updated Software Development Kits (SDKs) to the vCloud API - теперь компания VMware сделала доступными новые наборы с документацией для соответствующих SDK Java, PHP и .NET с простыми и понятными примерами использования.
Independent Software Vendor (ISV) Ecosystem User Interface (UI) - теперь сервис-провайдеры, предоставляющие свою виртуальную инфраструктуру в аренду, могут строить собственные решения для пользователей, включающие полностью кастомизированный интерфейс для управления, мониторинга, создания каталогов сервисов и порталов самообслуживания пользователей. Теперь это все доступно через API.
Продукт VMware vCloud Director 5.6 доступен для загрузки только для сервис-провайдеров на этой странице.
По данным аналитиков IDC, в 2013 году рост количества аппаратно программных комплексов (АПК), применяемых для построения систем резервного копирования и восстановления данных (СРКиВД) составил 36% по сравнению с 2012 годом. В чем причина популярности этих устройств и какие основные сценарии их применения сегодня?
Некоторые из вас знают, что сейчас в Лас-Вегасе проходит конференция VeeamOn 2014 - первое всемирное офлайн-событие компании Veeam Software, производящей продукт для резервного копирования виртуальных машин номер один на рынке - Veeam Backup and Replication.
Недавно мы писали о новой версии Veeam B&R v8, а на конференции специалисты Veeam рассказали множество интересных подробностей о новых фичах. Одна из таких функций - Backup I/O Control - позволяет ограничивать производительность процедуры резервного копирования на отдельном хранилище.
Veeam очень много сделала в технологическом плане, чтобы бэкапы с хранилища виртуальных машин снимались как можно быстрее - это и распараллеливание задач, и интеллектуальный выбор бэкап-прокси, и многое другое. В итоге бэкапы стали сниматься очень быстро, даже слишком быстро.
Для обычных компаний, системы которых не работают по ночам - это очень хорошо, бэкап отработал ночью, а днем пользователи спокойно работают, а вот для тех компаний, чьи серверы полностью загружены в режиме 24/7, нагрузка хранилищ задачами резервного копирования может оказаться существенной и негативно сказаться на производительности продуктивных систем.
Для этого в Veeam Backup and Replication есть ограничение числа задач, которые могут исполняться одновременно на бэкап-прокси:
Однако это совсем неудобно - непонятно, как и на что это влияет при выполнении операций резервного копирования, потому и была придумана возможность Backup I/O Control, которая ограничивает процесс РК таким образом, чтобы соблюсти требования по производительности хранилищ для нормальной работы виртуальных машин и приложений.
А что является главным мерилом производительности (ну, одним из главных)? Это задержка при операциях чтения-записи, то есть latency. Так вот функция Backup I/O Control в Veeam Backup & Replication v8 позволяет вам указать требуемое latency при превышении которого задача резервного копирования будет "урезаться" и создавать меньшую нагрузку на хранилище:
Если мы укажем данные значения, то при достижении Latency 20 мс новые задачи для данного хранилища перестанут назначаться, а вот если уже вырастет до 30 мс, то и вовсе нагрузка текущих задач будет уменьшена, чтобы соблюсти требования по SLA.
Пример как это работает. Для текущей нагрузки операций резервного копирования включаем функцию Backup I/O Control и нагрузка РК снижается так, чтобы средний уровень latency не превышал 20 мс (зеленая линия). Отключаем эту фичу - и видим, что задержка снова начинает расти, то есть бэкап разгоняется, создавая большую нагрузку.
Конечно же, включение функции Backup I/O Control увеличивает требования к окну резервного копирования, зато позволяет на абсолютно понятном уровне установить устраивающие значения для хранилищ, превышать которые задачи Veeam B&R не будут. Очень удобно.
Для версии Veeam Backup and Replication Enterprise такие настройки можно установить только глобально, а вот в версии Enterprise Plus это уже можно сделать для каждого датастора в отдельности:
Продолжаем следить за новостями с VeeamOn. Выпуск Veeam Backup & Replication v8 ожидается в четвертом квартале этого года, то есть вот-вот.
Как многие из вас знают, компания Microsoft совсем недавно анонсировала новую операционную систему Windows 10 (уже доступен ее Technical Preview), которая придет на смену не очень удачной Windows 8 (для несведущих - Windows 9 не будет). Это неожиданный шаг, так как традиционно удачные версии Windows (XP, 7) получаются через версию и у девятки был бы шанс. Тем не менее.
Практически одновременно с клиентской ОС Microsoft анонсировала и новое поколение серверных ОС Windows Server vNext:
Новые возможности Windows Server vNext:
Механизм обновления ОС хостов кластера без его остановки (Cluster Operating System Rolling Upgrade) - это происходит черех создание смешанного кластера Windows Server 2012 R2 и Windows Server vNext.
Синхронная репликация хранилищ на уровне блоков с поддержкой географически распределенных кластеров (привет, SRM).
Виртуальный сетевой контроллер (software-defined networking stack) для одновременного управления физическими и виртуальными сетями.
Новый формат файлов конфигурации виртуальных машин (.VMCX и .VMRS), с более высокой степенью защиты от сбоев на уровне хранилища. Также можно будет обновлять версии конфигурационных файлов.
Можно будет создавать снапшоты прямо из гостевой ОС.
Полноценный
Storage Quality of Service (QoS) - возможность динамического отслеживания производительности хранилищ и горячая миграция виртуальных машин при превышении этими хранилищами пороговых значений (IOPS).
Изменения в самом Hyper-V: использование альтернативных аккаунтов (хранение нескольких кредов одного человека, возможность использования по времени), возможность управления предыдущими версиями Hyper-V в корпоративной инфраструктуре, обновление и улучшение протокола удалённого управления.
Возможность обновления Integration Services через Windows Update.
"Горячее" добавление сетевых карт и оперативной памяти.
Поддержка OpenGL и OpenCL для Remote Desktop.
Возможность безопасной загрузки гостевых операционных систем Linux.
Также надо отметить, что Windows Server vNext уже можно устанавливать как виртуальную машину в облаке Azure. Работает вроде быстро и без больших глюков.
Скачать Windows Server vNext Technical Preview можно по этим ссылкам (торрент - тут):
Не секрет, что на рынке для создания отказоустойчивых программных хранилищ для виртуальных машин есть два лидера - это StarWind Virtual SAN (о котором мы часто пишем) и VMware Virtual SAN (продукт компании VMware для своей платформы vSphere).
В таблице ниже мы решили показать, почему StarWind Virtual SAN во многом лучше VMware Virtual SAN, рассмотрев значимые для администраторов технические критерии выбора продукта. Конечно же, это не все критерии и по каким-то параметрам Virtual SAN от VMware будет работать лучше, кроме того продукты представляют собой различные архитектуры построения отказоустойчивых кластеров, но тем не менее в каком-то ракурсе сравнить их все-таки можно.
Итак:
Критерий сравнения
StarWind Virtual SAN
VMware Virtual SAN
Минимальное число узлов кластера
2
3
Максимальное число узлов
Не ограничено (разные кластеры)
32 (один кластер)
Максимальная емкость кластеров
Не ограничена (разные кластеры)
148 ТБ (один кластер)
Наличие Flash-накопителей (SSD)
Не требуется
Обязательно
Тип RAID
Любой
Только 5, 10
Наличие коммутатора 10G
Не обязательно
Обязательно
Технология дедупликации
Встроенная (in-line)
Отсутствует
Поддержка создания кластеров хранилищ для ВМ Hyper-V
Да
Нет
Кэш
В памяти (WB or WT) или Flash cache
Только Flash cache
Более подробно о новых возможностях восьмой версии StarWind Virtual SAN можно узнать вот тут, а тут доступен документ со сравнением платного и бесплатного изданий продукта.
Таги: StarWind, Virtual SAN, Сравнение, VMware, vSphere, Storage, HA, iSCSI
На днях компания Citrix объявила о финальной доступности своих продуктов для построения инфраструктуры виртуальных ПК Citrix XenApp и Citrix XenDesktop 7.6. Напомним, что это первое обновление данных продуктов с момента выхода версий 7.5, которое состоялось в начале года.
Ключевые новые возможности Citrix XenApp 7.6 и Citrix XenDesktop 7.6:
Возможности "session prelaunch" и "session linger", позволяющие запустить сессию еще до того, как она была запрошена пользователем, и удержание сессии, когда пользователь закрыл все приложения (на случай, если он снова вернется к их использованию). Время, которое следует держать сессию теплой, настраивается администратором.
Поддержка неаутентифицированных (анонимных) пользователей.
Connection leasing - возможность для пользователей соединиться с часто используемыми приложениями XenApp или виртуальными ПК XenDesktop даже при неработающей Site database в случае неполадок в сети предприятия.
Application folders - возможность организовать приложения в папки, что упрощает их управление через Citrix Studio.
XenApp 6.5 migration - возможности переезда инфраструктуры приложений со старой версии 6.5 на новую 7.6 с сохранением конфигурации, групповых политик и прочего. Это очень важно для крупных инсталляций, где куча времени было потрачено на создание необходимой конфигурации.
User Subscriptions - механизм предоставления пользователям возможности самостоятельной подписки на приложения в Store.
Улучшенные настройки connection throttling - теперь для соединения можно настраивать число одновременных действий, число одновременных обновлений Personal Storage inventory и т.п.
Улучшения интерфейса в Studio - теперь отображается более детальный статус операций и описания ошибок при обновлении образов PvD. Также представлена более понятная информация о лицензировании (алерты о лицензиях).
Поддерджка обновленных клиентов Receiver for Chrome 1.4 и Receiver for HTML5 1.4 (подробнее - тут и тут).
Поддержка HDX Real-Time Optimization Pack 1.5 for Microsoft Lync (подробнее - тут).
Компания StarWind, поставщик ПО номер 1 для создания отказоустойчивых кластеров хранилищ в инфраструктурах VMware vSphere и Microsoft Hyper-V (о возможностях продукта - тут), в ближайшее время проведет два интересных вебинара:
На совместном с компанией Veeam вебинаре Макс Коломейцев от имени StarWind расскажет, как с помощью продуктов StarWind Virtual SAN для отказоустойчивой конфигурации хранилищ и Veeam Backup and Replication для резервного копирования достичь высоких показателей RTO и RPO в вашей виртуальной инфраструктуре. Вебинар для тех, кто давно хочет понять, как эти два продукта уживаются вместе, и какой позитивный эффект они дают.
Бесплатный вебинар пройдет 30 сентября в 22-00 по московскому времени. Как раз после ужина. Регистрируйтесь!
Вебинар пройдет 1 октября также в 22-00 по московскому времени.
На этом вебинаре Макс Коломейцев расскажет про развертывание и настройку кластеров серверов и хранилищ на базе платформы Microsoft Hyper-V и продукта StarWind Virtual SAN (а также про отсутствие необходимости приобретать дополнительное железо и ПО). Напомню, что Макс является продакт-менеджером Virtual SAN, а значит знает о нем абсолютно все. Регистрируйтесь и спрашивайте!
Не так давно мы писали о новых возможностях лидирующей на рынке платформы виртуализации VMware vSphere 6, которая на данный момент доступна в публичной бета-версии.
Одной из новых возможностей был заявлен механизм vSphere APIs for IO Filtering (VAIO - как ноутбуки от Sony), который позволяет получать прямой доступ к потоку ввода-вывода (I/O Stream) гостевой ОС виртуальной машины. Несмотря на то, что об этой штуке писали достаточно мало, механизм VAIO в будущем будет способствовать созданию множества партнерских продуктов для решения самых разнообразных задач. VAIO основан на механике Storage Policy Based Management (SPBM), которая предназначения для управления хранением виртуальных машин.
Техническая реализация данного механизмв подразумевает использование драйвера VAIO (filter driver), который устанавливается на хосте VMware ESXi как пакет VIB и не требует установки никакого специального ПО в гостевой ОС виртуальной машины. Работает он на уровне VMDK-диска отдельной ВМ и позволяет не только получать данные из потока ввода-вывода, но и изменять его при течении данных в ту или другую сторону.
Это открывает возможности для применения VMware VAIO при решении следующих типов задач:
Encryption – стороннее ПО за счет использования механизма VAIO может на лету шифровать и расшифровывать поток данных от виртуальной машины. Таким образом на хранилище будут помещаться уже шифрованные данные. Гранулярность работы VAIO позволяет обслуживать данные идущие даже не от всей виртуальной машины, а только от одного приложения.
De-duplication - этот механизм уже использует решение VMware Virtual SAN. В реальном времени можно дедуплицировать данные, проходящие через драйвер и в таком виде уже класть на хранилище в целях экономии дискового пространства. Теперь это станет доступно и партнерам VMware.
Tiering - данные различной степени важности, критичности или классифицированные по другим критериям теперь можно класть на хранилища с разными характеристиками производительности и доступности (ярусы). Механизм VAIO тут поможет проанализировать характер данных и определить конечное их место назначения.
Analytics - теперь можно анализировать непосредственно поток данных от конкретной виртуальной машины и на основе этого строить множество различных решений, включая решения по кэшированию (например, такой продукт как CahceBox можно будет напрямую подключить к гипервизору). Затем можно, например, искать в трафике данные определенных приложений, либо, например, использовать механизм write-back кэширования.
На первом этапе запуска технологии VAIO компания VMware решила остановиться на двух путях ее имплементации:
1. Возможности кэширования данных на SSD-накопителях (write-back кэширование для операций записи). Дизайн-документ для API тут делала компания SanDisk, которая первой будет использовать VAIO в своих продуктах. Вот их презентация:
А вот технология write-back кэширования на стороне сервера с использованием механизма VAIO:
2. Возможности высокопроизводительной репликации. Реализация данного аспекта VAIO позволит получать прямой доступ к потоку ввода-вывода и сразу же передавать его на другой хост, не прибегая к дополнительным механизмам, которые сегодня используются для реализации техник репликации. На данный момент заявлено, что такой тип репликации будет поддерживать ПО EMC RecoverPoint, команда которого принимала участие в разработке техники VAIO.
Однако несмотря на все плюсы технологии vSphere APIs for IO Filtering, в ней есть и негативные стороны:
Во-первых, это вопрос надежности. Так как между виртуальной машиной и хранилищем есть дополнительное звено, которое может рухнуть, понижается и совокупная надежность платформы виртуализации.
Во-вторых, это вопрос производительности. Прослушка трафика посредством VAIO неизбежно создает нагрузку на аппаратные ресурсы хоста ESXi.
В-третьих, это вопрос безопасности. Представим, что я написал софт, который прозрачно шифрует и расшифровывает трафик отдельной виртуальной машины на хосте ESXi, после чего внедрил его в инфраструктуру предприятия, где все это произошло незаметно для пользователей и администраторов. Затем я просто убираю это ПО из гипервизора (например, при увольнении), после чего данные на хранилищах превращаются в тыкву, а компания сталкивается с серьезной проблемой.
В целом же, подход VMware в данном вопросе очень радует - она открывает партнерам возможности разработки собственных продуктов для решения задач пользователей, а значит предоставляет и неплохую возможность заработать.
Первые реализации механизма vSphere APIs for IO Filtering мы должны увидеть уже в первой половине 2015 года, когда выйдет обновленная версия платформы VMware vSphere 6.
Компания VMware выпустила интересный документ "Microsoft Exchange Server Performance on VMware Virtual SAN", в котором рассматривается случай тестирования нагрузки виртуальных серверов Microsoft Exchange размещенных в кластере Virtual SAN и работающих на серверах VMware ESXi.
В VMware использовали конфигурацию кластера VSAN из пяти узлов (Dell PowerEdge R720xd с процессорами Intel Xeon Processors E5-2650 и 128 ГБ памяти в каждом), на одном из узлов была машина с контроллером Active Directory, а для генерации нагрузки использовался отдельный клиент:
Детальная конфигурация стенда:
В качестве программной платформы использовался Exchange Server 2010, установленный в ОС Windows Server 2008 R2. На каждом хосте было размещено две виртуальных машины с Exchange - роли Mailbox и HUB.
С помощью Exchange Load Generator была сгенерирована нагрузка пользователей отсылающих и получающих письма. Для теста взяли 12 000, 16 000 и 20 000 пользователей с профилем нагрузки 150 отправляемых писем в день. Каждый почтовый ящик был инициализирован в размере 100 МБ.
При тестах Sendmail на указанном количестве пользователей выведен средний результат выполнения операций (Avg) и результат, уложившийся в 95 процентов опытов (95% latency).
Поскольку принято считать, что Latency до 500 миллисекунд для Exchange считается нормальной при отправке писем - то результаты тестов показывают, что такая конфигурация вполне жизнеспособна на десятках тысяч пользователей.
Больше подробностей можно узнать непосредственно из документа.
Компания StarWind Software, производитель средства номер один для создания отказоустойчивых кластеров StarWind Virtual SAN, недавно обновила свою библиотеку открытых документов, касающихся технических аспектов решения.
Также рекомендую заглянуть в раздел Technical Papers, где для новичков будет очень полезен Quick Start Guide по StarWind Virtual SAN. Все качается по прямым ссылкам и без регистрации.
Компания VMware выпустила интересный и полезный документ в виде таблицы - Virtual SAN 5.5 Validation Guide. Он позволяет решать проблемы, возникшие в кластерах хранилищ VSAN, как на стадии пре-инсталляции, так и после развертывания решения.
Изначально эту таблицу использовали сотрудники технической поддержки VMware для решения проблем, возникающих в среде Virtual SAN, но потом его было решено выпустить публично в целях стимуляции самоподдержки пользователей.
Документ составлен техническими специалистами VMware для своих нужд, поэтому там так предельно много конкретики, что очень полезно администраторам VMware vSphere в повседневной работе.
В первой части рассматриваются засады, которые может получить пользователь при развертывании кластера Virtual SAN, в во второй уже приводятся ситуации, которые могут возникнуть после инсталляции и в процессе эксплуатации решения.
При этом (где это возможно) приводятся шаги vCenter Web Client или сценарии CLI (RVC, ESXCLI, PowerCLI), которые позволят идентифицировать и ликвидировать проблему. Документ живет и постоянно обновляется, поэтому можно периодически заглядывать - не обновилась ли его версия (сейчас это 2.1).
Также очень рекомендуют в целях траблшутинга обращаться к инструменту vSphere Ruby Console (RVC), который позволяет автоматизировать множество задач. Полезные ссылки:
Самое время отвлечься от первых осенних будней и послушать интересных людей (Максу можно задавать вопросы по-русски):
Вебинар пройдет сегодня, 2 сентября, в 20-00 по московскому времени. Регистрируйтесь!
На вебинаре будет обсуждаться тема создания масштабируемого SoFS-кластера хранилищ для виртуальных машин на основе технологии SMB 3.0, которая появилась в Windows Server 2012 R2.
Кстати, будет и раздача слонов: случайным образом будут выбраны 3 участника вебинара, которые получат карточки Старбакса на 20 долларов, а также годовую подписку на журнал Wired.
Скачать пробную версию StarWind Virtual SAN можно по этой ссылке. О возможностях этого продукта мы писали вот тут. Кроме того, есть бесплатная версия этого продукта, скачать которую можно здесь.
Не так давно мы писали о публичной бета-версии VMware vSphere 6, где каждый желающий мог скачать ее, посмотреть на список новых функций, но написать об этом не мог. На конференции VMware VMworld 2014 мораторий, по-сути, был снят - и теперь можно писать и рассказывать о новых возможностях платформы сколь угодно подробно.
Итак, что нового мы увидим в первой половине 2015 года (а именно тогда выйдет VMware vSphere 6):
1. Поддержка технологией Fault Tolerance до четырех виртуальных процессоров машины (4 vCPU).
Теперь технология непрерывной доступности VMware Fault Tolerance будет поддерживать виртуальные машины с 4 vCPU и объемом памяти до 64 ГБ.
Ранее для работы FT использовался механизм "Record-Replay" средствами технологии vLockstep, который воспроизводил инструкции основной машины на резервной. Теперь же используется техника Fast Checkpointing, которая позволяет организовать исполнение потока инструкций одновременно на обеих машинах. Если по какой-либо причине сетевое соединение между машинами замедляется, основная машина тоже начинает работать медленнее.
При этом теперь VMware Fault Tolerance можно будет конфигурировать для включенной виртуальной машины. Однако, по-прежнему, остаются следующие ограничения:
На хост ESXi можно иметь до 4 машин, защищенных технологией FT, при этом всего суммарно может быть защищено до 8 vCPU. Обратите внимание, что эти максимумы применяются суммарно к Primary и Secondary виртуальным машинам, расположенным на этом хосте.
Обязательно потребуется адаптер 10 Gb. Можно будет его разделять между различными типами трафика средствами NetIOC.
Нельзя использовать горячее добавление CPU или памяти для таких машин (Hot Add).
Если несколько vCPU затронуто технологией FT, то для таких машин не поддерживается Storage vMotion.
Кроме того, технику SMP-FT не поддерживают такие вещи, как vCloud Director, vSphere Replication, VSAN/vVols и vFlash.
При этом для таких машин полностью поддерживается VMware vMotion, а также они (как и раньше) защищаются кластером VMware HA - если с одной из машин что-то случается, то на другом хосте перезапускается реплика, которая уже становится Secondary VM.
Помимо этого, надо понимать, что SMP-FT вызовет падение производительности гостевой ОС, по оценкам VMware - это около 10-30% в зависимости от нагрузки.
Приятная новость - многопроцессорная FT будет поддерживать снапшоты виртуальных машин, а значит вы сможете делать их резервные копии средствами Veeam Backup and Replication или любым другим средством, поддерживающим vStorage APIs for Data Protection.
2. Улучшения горячей миграции виртуальных машин на большие расстояния (long distance vMotion).
О long distance vMotion мы уже писали вот тут, а впервые - вообще пять лет назад. И только сейчас обещания станут реальностью.
Теперь работающую виртуальную машину можно перемещать на расстояния, где RTT (Round Trip Time) в канале достигает 100 мс (неофициально поддерживается значение 150 мс). Это в 10 раз больше, чем было раньше.
И это - расстояние до 3000 километров (!). Теперь менеджерам датацентров открываются очень интересные стратегии по таким вариантам использования, как Follow the sun (машины работают там, где работают люди) и Follow the moon (машины работают ночью, когда электричество дешевле).
Кроме того, появились следующие улучшения технологии vMotion.
vMotion между разными серверами vCenter (нужна сеть на скорости 250 Mbps). Это происходит средствами протокола VMware Network File Copy (NFC).
Маршрутизируемый трафик vMotion (наконец-то).
vMotion между виртуальными коммутаторами vSwitch, а также Virtual Distributed Switch (VDS), поддерживаются режимы VSS to VSS, VSS to VDS, VDS to VDS (а вот VDS to VSS - нельзя).
средствами VMware NSX сетевые настройки машин могут быть перемещены в горячем режиме даже, если используется long distance vMotion.
3. Улучшенная производительность и новые возможности vSphere Web Client.
Здесь пока не сильно много деталей: появятся библиотеки контента (версии машин, темплейтов) и функции publish и subscribe для них. Также существенно будет улучшена производительность и уменьшен отклик при различных операциях.
Все это приходит в рамках концепции создания конвергентной инфраструктуры и развития парадигмы Software-Defined-Datacenter.
Здесь используются три основных элемента:
Vendor Provider (VP) – это плагин от производителя системы хранения данных, поддерживающий VVols через VASA API версии 2.0.
Storage Containers (SC) – это контейнеры на дисковом массиве, в которые упаковываются VMDK-диски каждой из машин. Это операбельная единица со стороны и системы хранения, и платформы VMware vSphere.
Protocol Endpoints (PE) – это средства управления томами на базе политик, предоставляемые администраторам. В них уже не будет понятий LUN и точек монтирования. Будет просто VVol, который можно привязывать и отвязывать от серверов ESXi/vCenter.
Все хранилища будут управляться на базе политик (сейчас это реализовано в VSAN):
5. Технология Virtual Datacenters.
Концепция виртуальных датацентров объединяет в себе пул вычислительных кластеров, кластеров хранилищ и политики их покрывающие. То есть это такой большой ресурсный контейнер, в котором есть зачатки интеллекта: он решает в какой из кластеров поместить виртуальную машину и на каком хранилище размещать виртуальные диски, чтобы это соответствовало определенным политикам.
По сути, это еще один уровень абстракции для крупных инфраструктур, в которых можно оперировать вот такими большими объектами из нескольких кластеров серверов и хранилищ.
6. Новые максимумы для хостов ESXi.
Нам обещают следующие параметры:
320+ pCPU
4+ TB Mem
4096+ vCPUs
32+ Nodes/Cluster
62TB+ VMDKs
Также с большой долей вероятности в VMware vSphere 6.0 мы увидим следующие возможности, о которых говорили на VMworld 2014:
Полная поддержка NVIDIA GRID vGPU - больше информации доступно тут.
Технология vSphere APIs for IO Filtering (VAIO) - о ней рассказано здесь.
Технология VMFork - метод по мгновенному клонированию запущенных виртуальных машин.
Больше подробностей о VMware vSphere 6 можно прочитать вот тут.
На днях компания VMware выпустила долгожданный онлайн-сервис Virtual SAN Sizing Tool, который позволяет оценить необходимые аппаратные мощности, требующиеся для поддержания инфраструктуры хранилищ VSAN на базе локальных дисков серверов VMware ESXi.
В качестве исходных данных утилиты принимается конфигурация типовой виртуальной машины:
а также типовая аппаратная конфигурация хост-сервера ESXi:
Для виртуальных машин вам могут показаться непонятными параметры "Number of failures to tolerate" и "Number of disk stripes per object" - о них мы писали вот в этой статье.
В качестве результата расчетов будет выведена следующая информация:
Число хостов заданной конфигурации, необходимых для поддержания инфраструктуры VSAN.
Размер SSD-диска для дисковой группы HDD на хосте.
Максимумы по числу компонентов в кластере (машины, диски).
Полезная емкость кластера (зависит также от параметра FTT).
Емкость кластера по оперативной памяти.
Кроме того, дается брейкдаун по использованию дисковых емкостей, а также объем оперативной памяти под нужды Virtual SAN на хостах:
При расчетах используются следующие допущения:
Все хосты кластера имеют одинаковый аппаратный профиль, включая число HDD и SSD-дисков, объем памяти и количество ядер CPU.
Предполагается, что у всех виртуальных машин одинаковые требования к хранилищу: как по дисковой емкости и числу дисков, так и по нагрузке на СХД.
Предполагается, что у всех виртуальных машин одинаковая VSAN Policy, то есть параметры FTT и disk stripes per object.
Никаких кнопок для начала расчета нажимать не нужно - данные формируются "на лету". Приступить к работе с VMware Virtual SAN Sizing Tool можно по этой ссылке.
Если вы хотите узнать кое-что интересное о продуктах компании StarWind - поставщика номер 1 в сфере программных решений для создания отказоустойчивых хранилищ, приходите на стенд номер 401 на конференции VMworld 2014, которая проходит с 24 по 28 августа в Сан-Франциско.
26 и 27 августа основатель компании StorageIO, Грег Шульц, проведет 4 живых мини-сессии, где расскажет о тех проблемах, с которыми сталкивается малый средний бизнес при построении серверной инфраструктуры и инфраструктуры хранилищ. Ну и, конечно же, о том, как решать эти проблемы.
Вот расписание сессий Грега:
Как бонус вы получаете шанс выиграть книгу Грега с его подписью и несколько переносных SSD-дисков.
Почти три года назад мы писали про средство VMware I/O Analyzer, предназначенное для генерации нагрузки и анализа статистики ввода-вывода хостов VMware ESXi, доступное на сайте проекта VMware Labs. Не так давно вышло обновление этого средства, которое, как оказалось, живет и развивается.
VMware I/O Analyzer поставляется в виде виртуального модуля (готовой ВМ), предоставляющего администраторам следующие возможности:
Интегрированный фрейворк для тестирования производительности хранилищ средствами генераторов нагрузки.
Готовый к развертыванию виртуальный модуль (управляющая ВМ и "воркеры" - генераторы нагрузки).
Прост в настройке и возможность исполнения тестов на одном или нескольких хостах ESX/ESXi.
Возможность просмотра результатов производительности как на уровне хоста, так и на уровне гостевой ОС.
Возможность экспорта данных для последующего анализа.
Средства "повторения" нагрузки на хранилища путем ее воспроизведения из трейса ввода-вывода.
Возможность загрузки трейсов ввода-вывода для автоматического извлечения необходимых метрик.
Графическая визуализация метрик и результатов анализа производительности.
В обновленном VMware I/O Analyzer 1.6.x появились следующие возможности:
Улучшенный планировщик заданий ввода-вывода.
Сам виртуальный модуль теперь на платформе SLES 64-bit, а сервер на Tomcat 6.
Экспериментальная поддержка статистик клиента NFS.
Возможность использования непостоянной (non-persistent) конфигурации (без сохранения настроек).
Сама ВМ с I/O Analyzer теперь версии 7, что позволяет запускать и использовать ее в ESX/ESXi 4.x.
Улучшения на бэкэнде, позволяющие поддерживать до 240 и более генераторов нагрузки.
На самом деле с 2011 года много что изменилось в этом продукте, поэтому ознакомьтесь с юзер-гайдом, в котором есть история добавления фичей по версиям.
Скачать VMware I/O Analyzer можно по этой ссылке. Очень хорошо, что подобные утилиты не ограничиваются одним релизом, а развиваются и обрастают функционалом.
Как вы знаете, автор этого сайта придерживается правила "лучше переставлять, чем обновлять" (когда речь идет о мажорных версиях продукта - см., например, вот тут и тут).
В VMware vSphere 5.0 компания VMware обновила свою кластерную файловую систему до версии VMFS 5. При этом в vSphere 5.x тома VMFS-3 поддерживаются, а также доступен апгрейд с третьей версии на пятую (напомним, что в пятой версии появилась поддержка дисков в 64 ТБ). Более подробная информация об апгрейде VMFS приведена в документе "VMware vSphere VMFS-5 Upgrade Considerations".
Так вот, апгрейженный том VMFS-5 имеет ограниченную функциональность в отличие от созданного заново тома, а именно:
Апгрейженный том продолжает использовать исходный размер блока (в новой версии VMFS 5.x размер блока унифицирован - 1 МБ). Это иногда может привести к чрезмерному потреблению места на диске (если много мелких файлов), но что самое неприятное - к падению производительности Storage vMotion.
Апгрейженный том не имеет таких возможностей как Sub-Block Size, увеличенное число файлов на хранилище и разметка GPT.
Обновленный том VMFS-5 продолжает иметь раздел, начинающийся с сектора 128, это может вызвать некоторые проблемы с выравниванием блоков. Новый раздел VMFS 5 начинается с сектора 2048.
Таким образом, получается, что лучше создать новый том VMFS-5, чем обновлять существующие тома VMFS-3. Но это все было давно, ну а вдруг у вас остались такие вот обновленные VMFS, из-за которых у вас иногда что-то работает не так?
Проверить, какой у вас том, можно в vSphere Client или vSphere Web Client. Смотрим размер блока:
Если он не 1 МБ - то это точно апгрейженный том, и его неплохо бы пересоздать. А вот если 1 МБ, то вовсе не факт, что это новый том (как раньше, так и сейчас был такой размер блока). В этом случае вам поможет вот этот скрипт, который выводит список всех томов VMFS и показывает, новый это том или апгрейженный.
Запустить этот скрипт можно таким образом:
1. Загружаем его и переименовываем его в check_vmfs.sh, убрав расширение .doc.
2. Копируем скрипт на виртуальный модуль vMA. Можно также запускать скрипт локально на сервере ESXi - для этого его туда надо загрузить через Veeam FastSCP или WinSCP.
3. Включаем демон SSH на хостах ESXi, где вы будете выполнять скрипт. (в vSphere Client нужно зайти в Configuration \ Software \ Security profile \ Services \ SSH).
4. Удаленно выполнить скрипт на серверах через SSH можно с помощью команды:
ssh root@<ESXi IP> 'ash -s' < ./check_vmfs.sh
Далее попросят пароль и будет выведен результат работы скрипта.
Здесь нужно смотреть на значение Sub Blocks, если Sub Blocks = 3968, то это апгрейженный VMFS-5, и его неплохо бы пересоздать. У нормального VMFS-5 значение Sub Blocks равно 32000.
Такое вот работающее правило "лучше переставлять, чем обновлять". Любители PowerShell могут также посмотреть вот эту статью.
Вебинар будет посвящен интересному вопросу: как использовать вычислительные ресурсы и хранилища для виртуальных машин - держать их вместе (как это делается с помощью StarWind Virtual SAN для платформы Hyper-V) или раздельно (классическая архитектура хост-серверов и отдельно программных или аппаратных хранилищ).
Очевидно, что первый вариант дешевле и выгодней, так как используется меньше хост-серверов, а на них одновременно создаются отказоустойчивые кластеры как для вычислительных мощностей (ВМ), так и для хранилищ (виртуальные диски). Но может быть здесь есть какие-то подводные камни? Приходите на вебинар и спросите!
На мероприятии будут рассмотрены следующие вопросы:
Обзор рынка решений для создания программных хранилищ.
Неприятности, которые несет собой традиционная архитектура аппаратных СХД.
Обзор решений распределенных хранилищ с функциями отказо- и катастрофоустойчивости.
Рассмотрение масштабируемых архитектур хранения, в том числе сугубо на базе программных решений.
Вебинар пройдет 20 августа в 22-00 по московскому времени.
Штука весьма интересная, особенно для новичков. На постере рассмотрены следующие компоненты облачных инфраструктур:
Публичные сервисы Microsoft Azure Services: категории сервисов, предоставление вычислительных мощностей в аренду (Compute Services), сервисы хранения (Data Services) и службы приложений (App Services).
Сервисы по созданию частных инфраструктур виртуализации на базе продуктов семейства System Center 2012 R2, включая такие компоненты как: App Controller, Virtual Machine Manager, Operations Manager, Configuration Manager, Service Manager, Orchestrator, Data Protection Manager и Azure Pack.
Сервисы платформы Windows Server 2012 R2, включая следующие технологии и составляющие: Storage Spaces, Data Deduplication, Resilient File System, SMB Transparent Failover, Storage Quality of Service, Generation 2 Virtual Machines, Online VHDX Resize, Enhanced Session Mode, Live Migration, Failover Clustering, Cluster Shared Volumes, Scale-Out File Server, Shared Virtual Hard Disks, Hyper-V Extensible Switch, Remote Desktop Services, SMB Direct, SMB Multi-channel и NIC Teaming.
Скачать постер Microsoft Cloud Ecosystem Poster можно по этой ссылке.
В этом посте мы сравним дисковые массивы DotHill 3730 и NetApp 5412. Сравнение и тестирование проводилось с целью определить целесообразность смены систем хранения данных DotHill на СХД NetApp. Один из заказчиков ИТ-ГРАД много лет использовал дисковые массивы DotHill 3730 для хранения всякого нужного, но пришло время их менять. Не то чтобы они были плохие, просто за несколько лет эксплуатации накопились обиды...
Те из вас, кто еще застал VMware ESX 2.x-3.x, наверняка помнят, что в VMware vSphere несколько лет назад иногда возникала проблема некорректного выравнивания блоков на двух уровнях - гостевой ОС по одношению к VMFS и VMFS по отношению к блокам дискового массива (подробнее здесь и здесь):
В такой ситуации смещения блоков на разных уровнях (гостевая ОС, VMFS, дисковый массив) чтение одного кластера в ОС виртуальной машины потенциально могло привести к чтению сразу трех чанков дискового массива.
Были даже специальные утилиты (о них мы писали тут и тут), которые занимались этой проблемой и позволяли получить вот такую правильную картинку, где чтение одного кластера в гостевой ОС приводило к чтению только одного чанка дискового массива.
Выравнивание на стороне файловой системы VMFS было реализовано еще в VMFS-3 (для vSphere 3.x и 4.x), где стартовый Logical Block Address (LBA) выставлялся в значение 128, а в VMFS-5 (начиная с vSphere 5.x) выравнивается по LBA 2048.
Корректное выравнивание в гостевых ОС Windows было также реализовано достаточно давно, начиная с Windows Server 2008 и Windows Vista (естественно, и в версиях 7/8 тоже), начало партиций уже выровнено как положено.
Как же дела обстоят с хранилищами VMware Virtual SAN, которые не используют VMFS?
Тут надо понимать два момента:
1. Virtual SAN использует свое собственное нативное хранилище объектов, и не использует VMFS, поэтому проблем VMFS<->хранилище и VMFS<->гостевая ОС не существует.
2. Проблема гостевая ОС<->хранилище потенциально может существовать для старых ОС (например, Windows Server 2003), однако даже в этом случае она будет мало влиять на производительность.
И вот почему проблема выравнивания блоков в среде VMware VSAN является надуманной:
1. Все операции записи идут через SSD-накопитель как буфер, где они складываются в пачки и только потом идут на HDD, соответственно, импакта тут нет.
2. Операции чтения также обслуживаются кэшем на SSD (vFRC), поэтому тут тоже почти не будет потерь производительности в невыровненной конфигурации.
Поэтому, вывод один - не заморачивайтесь проблемой выравнивания блоков в среде VMware Virtual SAN.
Помимо всего прочего, в документе рассматривается способ получения информации о структуре и содержимом кэша vFRC. Сделать это можно с помощью команды:
~ # esxcli storage vflash cache list
Эта команда выведет список идентификаторов кэша для VMDK-дисков, для которых включена vFRC. Далее с помощью следующей команды можно узнать детали конкретного ID кэша:
# esxcli storage vflash cache get –c <cache-identifier>
Несколько больше информации (включая объем закэшированных данных) можно почерпнуть из команд, приведенных ниже. Для этого потребуется создать переменную CacheID:
~ # cacheID='vsish -e ls /vmkModules/vflash/module/vfc/cache/'
~ # vsish -e get /vmkModules/vflash/module/vfc/cache/${cacheID}stats
В результате будет выведено что-то подобное:
vFlash per cache instance statistics {
cacheBlockSize:8192
numBlocks:1270976
numBlocksCurrentlyCached:222255
numFailedPrimaryIOs:0
numFailedCacheIOs:0
avgNumBlocksOnCache:172494
read:vFlash per I/O type Statistics {
numIOs:168016
avgNumIOPs:61
maxNumIOPs:1969
avgNumKBs:42143
maxNumKBs:227891
avgLatencyUS:16201
maxLatencyUS:41070
numPrimaryIOs:11442
numCacheIOs:156574
avgCacheLatencyUS:17130
avgPrimaryLatencyUS:239961
cacheHitPercentage:94
}
write:vFlash per I/O type Statistics {
numIOs:102264
avgNumIOPs:307
maxNumIOPs:3982
avgNumKBs:10424
maxNumKBs:12106
avgLatencyUS:3248
maxLatencyUS:31798
numPrimaryIOs:102264
numCacheIOs:0
avgCacheLatencyUS:0
avgPrimaryLatencyUS:3248
cacheHitPercentage:0
}
rwTotal:vFlash per I/O type Statistics {
numIOs:270280
avgNumIOPs:88
maxNumIOPs:2027
avgNumKBs:52568
maxNumKBs:233584
avgLatencyUS:11300
maxLatencyUS:40029
numPrimaryIOs:113706
numCacheIOs:156574
avgCacheLatencyUS:17130
avgPrimaryLatencyUS:27068
cacheHitPercentage:58
}
flush:vFlash per operation type statistics {
lastOpTimeUS:0
numBlocksLastOp:0
nextOpTimeUS:0
numBlocksNextOp:0
avgNumBlocksPerOp:0
}
evict:vFlash per operation type statistics {
lastOpTimeUS:0
numBlocksLastOp:0
nextOpTimeUS:0
numBlocksNextOp:0
avgNumBlocksPerOp:0
}
}
Приведенный вывод содержит все метрики, означенные в упомянутом документе. Далее вы можете использовать эту информацию для принятия решения о размере кэша на серверах ESXi и значении других настроек, описанных в документе.